Além da Solicitação Simples
Ao começar com Modelos de Linguagem de Grande Porte (LLMs), os desenvolvedores geralmente usam chamadas diretas à API (como a biblioteca Python do OpenAI) para enviar um prompt e receber uma conclusão. Embora funcional, essa abordagem torna-se inviável à medida que os aplicativos crescem.
O Problema da Estado-Indiferença
Modelos de Linguagem de Grande Porte são intrinsecamente estado-indiferentes. Cada vez que você envia uma mensagem, o modelo "esquece" quem você é e o que você disse anteriormente. Cada interação começa em branco. Para manter uma conversa, você precisa passar manualmente todo o histórico de volta ao modelo a cada vez.
A Solução do LangChain
O LangChain introduz o ChatOpenAI wrapper do modelo. Isso não é apenas um invólucro por si só — é a base para modularidade. Ao abstrair a chamada do modelo, podemos trocar modelos, injetar memória e usar modelos sem precisar reescrever toda a nossa base de código.
Your task is to create a
ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
from langchain_openai import ChatOpenAImy_llm = ChatOpenAI(temperature=0.7)